33 research outputs found

    Task-related edge density (TED) - a new method for revealing large-scale network formation in fMRI data of the human brain

    Full text link
    The formation of transient networks in response to external stimuli or as a reflection of internal cognitive processes is a hallmark of human brain function. However, its identification in fMRI data of the human brain is notoriously difficult. Here we propose a new method of fMRI data analysis that tackles this problem by considering large-scale, task-related synchronisation networks. Networks consist of nodes and edges connecting them, where nodes correspond to voxels in fMRI data, and the weight of an edge is determined via task-related changes in dynamic synchronisation between their respective times series. Based on these definitions, we developed a new data analysis algorithm that identifies edges in a brain network that differentially respond in unison to a task onset and that occur in dense packs with similar characteristics. Hence, we call this approach "Task-related Edge Density" (TED). TED proved to be a very strong marker for dynamic network formation that easily lends itself to statistical analysis using large scale statistical inference. A major advantage of TED compared to other methods is that it does not depend on any specific hemodynamic response model, and it also does not require a presegmentation of the data for dimensionality reduction as it can handle large networks consisting of tens of thousands of voxels. We applied TED to fMRI data of a fingertapping task provided by the Human Connectome Project. TED revealed network-based involvement of a large number of brain areas that evaded detection using traditional GLM-based analysis. We show that our proposed method provides an entirely new window into the immense complexity of human brain function.Comment: 21 pages, 11 figure

    DNABarcodes. An R package for the systematic construction of DNA sample tags

    No full text
    Motivation: DNA barcodes are commonly used for counting and discriminating purposes in molecular and cell biology. Not every set of DNA sequences is equally suitable for this goal. There is a growing demand for more sophisticated barcode designs, with only few tools available. We prepared an R package that combines known algorithms and innovative methods for the efficient, flexible and near-optimal generation of robust barcode sets. Results: Our R-software package 'DNABarcodes' generates sets of DNA barcodes from a few basic input parameters (e.g. length, distance metric, minimum distance, chemical properties). It satisfies the specifics of most particular experimental demands in de novo design of barcodes. Additionally, the package allows analysing existing sets of DNA barcodes as well as the generation of subsets of those existing sets to improve their error correction and detection properties. 'DNABarcodes' was designed for speed, versatility, provable correctness and large set sizes

    Dreidimensionale numerische Modellierung von Hochwasserentlastungsanlagen: am Beispiel der Talsperre Lehnmühle

    No full text
    Die jüngst beobachteten Hochwasserereignisse zogen eine Überarbeitung der hydrologischen Daten zahlreicher Talsperren nach sich. Im Ergebnis wiesen viele der Anlagen nicht die erforderliche Hochwassersicherheit auf. Aus diesem Grund ist auch für die in Sachsen gelegene Talsperre Lehnmühle eine Ertüchtigung der Hochwasserentlastungsanlage geplant. Die Vorzugsvariante zur Wiederherstellung der Überflutungssicherheit sieht die Absenkung der Wehrkrone einzelner Überlauffelder vor. Die damit verbundene Leistungssteigerung erfordert eine Überprüfung der Abflussverhältnisse im nachgeschalteten Tosbecken. Im Rahmen der Arbeit werden die Strömungsverhältnisse im bestehenden Tosbecken mit Hilfe dreidimensionaler numerischer Modellierungen abgebildet. Mit dem Ziel einer verbesserten Energieumwandlung wird darüber hinaus die Wirksamkeit von Prallblöcken untersucht und bewertet.:1 Einleitung 2 Grundlagen der numerischen Strömungsberechnung 2.1 Numerische Modellierung im Vergleich 2.1.1 Prinzip der numerischen Strömungsberechnung 2.1.2 Exkurs: Physikalische Modellierung 2.1.3 Vor- und Nachteile der numerischen und physikalischen Modellierung 2.2 Vollständige Navier-Stokes-Gleichungen 2.3 Berechnungsmethoden 2.4 Turbulenzmodellierung 2.4.1 k-ε-Modell 2.4.2 k-ω-Modell 2.4.3 SST-Modell 2.5 Diskretisierung 2.5.1 Definieren der Geometrie 2.5.2 Berechnungsnetze 2.5.2.1 Strukturierte Netze 2.5.2.2 Unstrukturierte Netze 2.5.2.3 Hybride Netze 2.5.3 Räumliche Diskretisierung 2.5.4 Zeitliche Diskretisierung 2.5.5 Anfangs- und Randbedingungen 2.6 Wichtige Eigenschaften numerischer Berechnungsverfahren 3 Hochwasserentlastungsanlagen 3.1 Funktion 3.2 Begrifflichkeiten und Regelwerke 3.3 Aufbau 3.3.1 Einlaufbauwerk 3.3.2 Transportbauwerk 3.3.3 Energieumwandlungsanlagen 3.3.3.1 Der Prozess der Energieumwandlung 3.3.3.2 Konstruktionsmöglichkeiten 3.4 Hydraulische Bemessung 3.4.1 Hochwasserbemessungsfälle 3.4.2 Bemessungsabflüsse und Überschreitungswahrscheinlichkeiten 3.4.3 Freibordbemessung 4 Methodik 4.1Die Talsperre Lehnmühle 4.2Hydrologie 4.3Untersuchungsumfang 4.4Erstellung der numerischen Modelle 4.4.1Geometrie 4.4.1.1Wehrüberfall 4.4.1.2Tosbecken 4.4.1.3Tosbeckeneinbauten 4.4.2Numerische Modelle 4.4.2.1Modell des Wehrüberfalls 4.4.2.2Modell des Tosbeckens 4.4.3Berechnungsnetze 4.4.4Modellkonfiguration 5Ergebnisse der numerischen Berechnungen 5.1Numerik versus Physik 5.2Überfallmodellierungen 5.2.1Sensitivitätsuntersuchungen 5.2.2Ermittlung der Eingangsbedingungen für die Tosbeckenmodellierung 5.3Szenario 1 - Modellierung des bestehenden Tosbeckens 5.3.1Ergebnisse 5.3.2Sensitivitätsuntersuchungen 5.3.2.1Plausibilisierung der Randbedingung für die überströmte Tosbeckenwand 5.3.2.2Einfluss der Turbulenzmodellierung 5.3.2.3Einfluss der Rauigkeit 5.4Tosbeckenoptimierung 5.4.1Grundlegende Aussagen 5.4.2Wasserspiegellagen 5.4.3Fließgeschwindigkeiten 5.4.4Abfluss über die Tosbeckenwand 5.4.5SchubspannungenRecent flood events called for a revision of hydrological data for numerous dams. As a result, many constructions have been found to not possess necessary flood safety. On this account, the flood spillway of the Saxon Lehnmühle dam is designated to be upgraded. In order to ensure an overflow-proof construction, the favored solution is to lower the crest of several weir fields. The resulting increased performance requires a revision of the runoff characteristics in the stilling basin. Firstly, this thesis shows the flow conditions of the existing stilling basin, using 3D numerical modeling. Secondly, with the goal of enhanced energy dissipation the effectiveness of baffle blocks will be examined and evaluated.:1 Einleitung 2 Grundlagen der numerischen Strömungsberechnung 2.1 Numerische Modellierung im Vergleich 2.1.1 Prinzip der numerischen Strömungsberechnung 2.1.2 Exkurs: Physikalische Modellierung 2.1.3 Vor- und Nachteile der numerischen und physikalischen Modellierung 2.2 Vollständige Navier-Stokes-Gleichungen 2.3 Berechnungsmethoden 2.4 Turbulenzmodellierung 2.4.1 k-ε-Modell 2.4.2 k-ω-Modell 2.4.3 SST-Modell 2.5 Diskretisierung 2.5.1 Definieren der Geometrie 2.5.2 Berechnungsnetze 2.5.2.1 Strukturierte Netze 2.5.2.2 Unstrukturierte Netze 2.5.2.3 Hybride Netze 2.5.3 Räumliche Diskretisierung 2.5.4 Zeitliche Diskretisierung 2.5.5 Anfangs- und Randbedingungen 2.6 Wichtige Eigenschaften numerischer Berechnungsverfahren 3 Hochwasserentlastungsanlagen 3.1 Funktion 3.2 Begrifflichkeiten und Regelwerke 3.3 Aufbau 3.3.1 Einlaufbauwerk 3.3.2 Transportbauwerk 3.3.3 Energieumwandlungsanlagen 3.3.3.1 Der Prozess der Energieumwandlung 3.3.3.2 Konstruktionsmöglichkeiten 3.4 Hydraulische Bemessung 3.4.1 Hochwasserbemessungsfälle 3.4.2 Bemessungsabflüsse und Überschreitungswahrscheinlichkeiten 3.4.3 Freibordbemessung 4 Methodik 4.1Die Talsperre Lehnmühle 4.2Hydrologie 4.3Untersuchungsumfang 4.4Erstellung der numerischen Modelle 4.4.1Geometrie 4.4.1.1Wehrüberfall 4.4.1.2Tosbecken 4.4.1.3Tosbeckeneinbauten 4.4.2Numerische Modelle 4.4.2.1Modell des Wehrüberfalls 4.4.2.2Modell des Tosbeckens 4.4.3Berechnungsnetze 4.4.4Modellkonfiguration 5Ergebnisse der numerischen Berechnungen 5.1Numerik versus Physik 5.2Überfallmodellierungen 5.2.1Sensitivitätsuntersuchungen 5.2.2Ermittlung der Eingangsbedingungen für die Tosbeckenmodellierung 5.3Szenario 1 - Modellierung des bestehenden Tosbeckens 5.3.1Ergebnisse 5.3.2Sensitivitätsuntersuchungen 5.3.2.1Plausibilisierung der Randbedingung für die überströmte Tosbeckenwand 5.3.2.2Einfluss der Turbulenzmodellierung 5.3.2.3Einfluss der Rauigkeit 5.4Tosbeckenoptimierung 5.4.1Grundlegende Aussagen 5.4.2Wasserspiegellagen 5.4.3Fließgeschwindigkeiten 5.4.4Abfluss über die Tosbeckenwand 5.4.5Schubspannunge

    Ein Mailsystem mit Vorverarbeitung und Datenbankspeicherung

    Get PDF
    Workshop Mensch-Computer-Vernetzung Es handelt sich um ein Konzept um die Daten eines Mailsystems in einer Datenbank zu halten. Dabei ist es wichtig, daß auf die selben Daten über Standardprotokolle (Pop3, Imap) zugegriffen werden kann, aber gleichzeitig aus der Datenbank abrufbar sind. Außerdem bin ich auf Vorverarbeitung von EMails eingegangen (z.B. Attachments gesondert behandeln

    Dreidimensionale numerische Modellierung von Hochwasserentlastungsanlagen: am Beispiel der Talsperre Lehnmühle

    No full text
    Die jüngst beobachteten Hochwasserereignisse zogen eine Überarbeitung der hydrologischen Daten zahlreicher Talsperren nach sich. Im Ergebnis wiesen viele der Anlagen nicht die erforderliche Hochwassersicherheit auf. Aus diesem Grund ist auch für die in Sachsen gelegene Talsperre Lehnmühle eine Ertüchtigung der Hochwasserentlastungsanlage geplant. Die Vorzugsvariante zur Wiederherstellung der Überflutungssicherheit sieht die Absenkung der Wehrkrone einzelner Überlauffelder vor. Die damit verbundene Leistungssteigerung erfordert eine Überprüfung der Abflussverhältnisse im nachgeschalteten Tosbecken. Im Rahmen der Arbeit werden die Strömungsverhältnisse im bestehenden Tosbecken mit Hilfe dreidimensionaler numerischer Modellierungen abgebildet. Mit dem Ziel einer verbesserten Energieumwandlung wird darüber hinaus die Wirksamkeit von Prallblöcken untersucht und bewertet.:1 Einleitung 2 Grundlagen der numerischen Strömungsberechnung 2.1 Numerische Modellierung im Vergleich 2.1.1 Prinzip der numerischen Strömungsberechnung 2.1.2 Exkurs: Physikalische Modellierung 2.1.3 Vor- und Nachteile der numerischen und physikalischen Modellierung 2.2 Vollständige Navier-Stokes-Gleichungen 2.3 Berechnungsmethoden 2.4 Turbulenzmodellierung 2.4.1 k-ε-Modell 2.4.2 k-ω-Modell 2.4.3 SST-Modell 2.5 Diskretisierung 2.5.1 Definieren der Geometrie 2.5.2 Berechnungsnetze 2.5.2.1 Strukturierte Netze 2.5.2.2 Unstrukturierte Netze 2.5.2.3 Hybride Netze 2.5.3 Räumliche Diskretisierung 2.5.4 Zeitliche Diskretisierung 2.5.5 Anfangs- und Randbedingungen 2.6 Wichtige Eigenschaften numerischer Berechnungsverfahren 3 Hochwasserentlastungsanlagen 3.1 Funktion 3.2 Begrifflichkeiten und Regelwerke 3.3 Aufbau 3.3.1 Einlaufbauwerk 3.3.2 Transportbauwerk 3.3.3 Energieumwandlungsanlagen 3.3.3.1 Der Prozess der Energieumwandlung 3.3.3.2 Konstruktionsmöglichkeiten 3.4 Hydraulische Bemessung 3.4.1 Hochwasserbemessungsfälle 3.4.2 Bemessungsabflüsse und Überschreitungswahrscheinlichkeiten 3.4.3 Freibordbemessung 4 Methodik 4.1Die Talsperre Lehnmühle 4.2Hydrologie 4.3Untersuchungsumfang 4.4Erstellung der numerischen Modelle 4.4.1Geometrie 4.4.1.1Wehrüberfall 4.4.1.2Tosbecken 4.4.1.3Tosbeckeneinbauten 4.4.2Numerische Modelle 4.4.2.1Modell des Wehrüberfalls 4.4.2.2Modell des Tosbeckens 4.4.3Berechnungsnetze 4.4.4Modellkonfiguration 5Ergebnisse der numerischen Berechnungen 5.1Numerik versus Physik 5.2Überfallmodellierungen 5.2.1Sensitivitätsuntersuchungen 5.2.2Ermittlung der Eingangsbedingungen für die Tosbeckenmodellierung 5.3Szenario 1 - Modellierung des bestehenden Tosbeckens 5.3.1Ergebnisse 5.3.2Sensitivitätsuntersuchungen 5.3.2.1Plausibilisierung der Randbedingung für die überströmte Tosbeckenwand 5.3.2.2Einfluss der Turbulenzmodellierung 5.3.2.3Einfluss der Rauigkeit 5.4Tosbeckenoptimierung 5.4.1Grundlegende Aussagen 5.4.2Wasserspiegellagen 5.4.3Fließgeschwindigkeiten 5.4.4Abfluss über die Tosbeckenwand 5.4.5SchubspannungenRecent flood events called for a revision of hydrological data for numerous dams. As a result, many constructions have been found to not possess necessary flood safety. On this account, the flood spillway of the Saxon Lehnmühle dam is designated to be upgraded. In order to ensure an overflow-proof construction, the favored solution is to lower the crest of several weir fields. The resulting increased performance requires a revision of the runoff characteristics in the stilling basin. Firstly, this thesis shows the flow conditions of the existing stilling basin, using 3D numerical modeling. Secondly, with the goal of enhanced energy dissipation the effectiveness of baffle blocks will be examined and evaluated.:1 Einleitung 2 Grundlagen der numerischen Strömungsberechnung 2.1 Numerische Modellierung im Vergleich 2.1.1 Prinzip der numerischen Strömungsberechnung 2.1.2 Exkurs: Physikalische Modellierung 2.1.3 Vor- und Nachteile der numerischen und physikalischen Modellierung 2.2 Vollständige Navier-Stokes-Gleichungen 2.3 Berechnungsmethoden 2.4 Turbulenzmodellierung 2.4.1 k-ε-Modell 2.4.2 k-ω-Modell 2.4.3 SST-Modell 2.5 Diskretisierung 2.5.1 Definieren der Geometrie 2.5.2 Berechnungsnetze 2.5.2.1 Strukturierte Netze 2.5.2.2 Unstrukturierte Netze 2.5.2.3 Hybride Netze 2.5.3 Räumliche Diskretisierung 2.5.4 Zeitliche Diskretisierung 2.5.5 Anfangs- und Randbedingungen 2.6 Wichtige Eigenschaften numerischer Berechnungsverfahren 3 Hochwasserentlastungsanlagen 3.1 Funktion 3.2 Begrifflichkeiten und Regelwerke 3.3 Aufbau 3.3.1 Einlaufbauwerk 3.3.2 Transportbauwerk 3.3.3 Energieumwandlungsanlagen 3.3.3.1 Der Prozess der Energieumwandlung 3.3.3.2 Konstruktionsmöglichkeiten 3.4 Hydraulische Bemessung 3.4.1 Hochwasserbemessungsfälle 3.4.2 Bemessungsabflüsse und Überschreitungswahrscheinlichkeiten 3.4.3 Freibordbemessung 4 Methodik 4.1Die Talsperre Lehnmühle 4.2Hydrologie 4.3Untersuchungsumfang 4.4Erstellung der numerischen Modelle 4.4.1Geometrie 4.4.1.1Wehrüberfall 4.4.1.2Tosbecken 4.4.1.3Tosbeckeneinbauten 4.4.2Numerische Modelle 4.4.2.1Modell des Wehrüberfalls 4.4.2.2Modell des Tosbeckens 4.4.3Berechnungsnetze 4.4.4Modellkonfiguration 5Ergebnisse der numerischen Berechnungen 5.1Numerik versus Physik 5.2Überfallmodellierungen 5.2.1Sensitivitätsuntersuchungen 5.2.2Ermittlung der Eingangsbedingungen für die Tosbeckenmodellierung 5.3Szenario 1 - Modellierung des bestehenden Tosbeckens 5.3.1Ergebnisse 5.3.2Sensitivitätsuntersuchungen 5.3.2.1Plausibilisierung der Randbedingung für die überströmte Tosbeckenwand 5.3.2.2Einfluss der Turbulenzmodellierung 5.3.2.3Einfluss der Rauigkeit 5.4Tosbeckenoptimierung 5.4.1Grundlegende Aussagen 5.4.2Wasserspiegellagen 5.4.3Fließgeschwindigkeiten 5.4.4Abfluss über die Tosbeckenwand 5.4.5Schubspannunge

    The systematic design and application of robust DNA barcodes

    Get PDF
    High-throughput sequencing technologies are improving in quality, capacity, and costs, providing versatile applications in DNA and RNA research. For small genomes or fraction of larger genomes, DNA samples can be mixed and loaded together on the same sequencing track. This so-called multiplexing approach relies on a specific DNA tag, index, or barcode that is attached to the sequencing or amplification primer and hence accompanies every read. After sequencing, each sample read is identified on the basis of the respective barcode sequence. Alterations of DNA barcodes during synthesis, primer ligation, DNA amplification, or sequencing may lead to incorrect sample identification unless the error is revealed and corrected. This can be accomplished by implementing error correcting algorithms and codes. This barcoding strategy increases the total number of correctly identified samples, thus improving overall sequencing efficiency. Two popular sets of error-correcting codes are Hamming codes and codes based on the Levenshtein distance. Levenshtein-based codes operate only on words of known length. Since a DNA sequence with an embedded barcode is essentially one continuous long word, application of the classical Levenshtein algorithm is problematic. In this thesis we demonstrate the decreased error correction capability of Levenshtein-based codes in a DNA context and suggest an adaptation of Levenshtein-based codes that is proven of efficiently correcting nucleotide errors in DNA sequences. In our adaptation, we take any DNA context into account and impose more strict rules for the selection of barcode sets. In simulations we show the superior error correction capability of the new method compared to traditional Levenshtein and Hamming based codes in the presence of multiple errors. We present an adaptation of Levenshtein-based codes to DNA contexts capable of guaranteed correction of a pre-defined number of insertion, deletion, and substitution mutations. Our improved method is additionally capable of correcting on average more random mutations than traditional Levenshtein-based or Hamming codes. As part of this work we prepared software for the flexible generation of DNA codes based on our new approach. To adapt codes to specific experimental conditions, the user can customize sequence filtering, the number of correctable mutations and barcode length for highest performance. However, not every platform is susceptible to a large number of both indel and substitution errors. The Illumina “Sequencing by Synthesis” platform shows a very large number of substitution errors as well as a very specific shift of the read that results in inserted and deleted bases at the 5’-end and the 3’-end (which we call phaseshifts). We argue in this scenario that the application of Sequence-Levenshtein-based codes is not efficient because it aims for a category of errors that barely occurs on this platform, which reduces the code size needlessly. As a solution, we propose the “Phaseshift distance” that exclusively supports the correction of substitutions and phaseshifts. Additionally, we enable the correction of arbitrary combinations of substitution and phaseshift errors. Thus, we address the lopsided number of substitutions compared to phaseshifts on the Illumina platform. To compare codes based on the Phaseshift distance to Hamming Codes as well as codes based on the Sequence-Levenshtein distance, we simulated an experimental scenario based on the error pattern we identified on the Illumina platform. Furthermore, we generated a large number of different sets of DNA barcodes using the Phaseshift distance and compared codes of different lengths and error correction capabilities. We found that codes based on the Phaseshift distance can correct a number of errors comparable to codes based on the Sequence-Levenshtein distance while offering the number of DNA barcodes comparable to Hamming codes. Thus, codes based on the Phaseshift distance show a higher efficiency in the targeted scenario. In some cases (e.g., with PacBio SMRT in Continuous Long Read mode), the position of the barcode and DNA context is not well defined. Many reads start inside the genomic insert so that adjacent primers might be missed. The matter is further complicated by coincidental similarities between barcode sequences and reference DNA. Therefore, a robust strategy is required in order to detect barcoded reads and avoid a large number of false positives or negatives. For mass inference problems such as this one, false discovery rate (FDR) methods are powerful and balanced solutions. Since existing FDR methods cannot be applied to this particular problem, we present an adapted FDR method that is suitable for the detection of barcoded reads as well as suggest possible improvements

    Enhancing the detection of barcoded reads in high throughput DNA sequencing data by controlling the false discovery rate

    Get PDF
    Background: DNA barcodes are short unique sequences used to label DNA or RNA-derived samples in multiplexed deep sequencing experiments. During the demultiplexing step, barcodes must be detected and their position identified. In some cases (e. g., with PacBio SMRT), the position of the barcode and DNA context is not well defined. Many reads start inside the genomic insert so that adjacent primers might be missed. The matter is further complicated by coincidental similarities between barcode sequences and reference DNA. Therefore, a robust strategy is required in order to detect barcoded reads and avoid a large number of false positives or negatives. For mass inference problems such as this one, false discovery rate (FDR) methods are powerful and balanced solutions. Since existing FDR methods cannot be applied to this particular problem, we present an adapted FDR method that is suitable for the detection of barcoded reads as well as suggest possible improvements. Results: In our analysis, barcode sequences showed high rates of coincidental similarities with the Mus musculus reference DNA. This problem became more acute when the length of the barcode sequence decreased and the number of barcodes in the set increased. The method presented in this paper controls the tail area-based false discovery rate to distinguish between barcoded and unbarcoded reads. This method helps to establish the highest acceptable minimal distance between reads and barcode sequences. In a proof of concept experiment we correctly detected barcodes in 83% of the reads with a precision of 89%. Sensitivity improved to 99% at 99% precision when the adjacent primer sequence was incorporated in the analysis. The analysis was further improved using a paired end strategy. Following an analysis of the data for sequence variants induced in the Atp1a1 gene of C57BL/6 murine melanocytes by ultraviolet light and conferring resistance to ouabain, we found no evidence of cross-contamination of DNA material between samples. Conclusion: Our method offers a proper quantitative treatment of the problem of detecting barcoded reads in a noisy sequencing environment. It is based on the false discovery rate statistics that allows a proper trade-off between sensitivity and precision to be chosen
    corecore